LO STUDIO
A dimostrarlo è una simulazione matematica pubblicata sulla rivista Scientific Reports dai ricercatori dell'Università di Cardiff, in Gran Bretagna, e del Massachusetts Institute of Technology (Mit) di Boston. I risultati dell'esperimento «sono un monito per i ricercatori che sviluppano le tecniche di apprendimento per l'intelligenza artificiale», commenta Giorgio Buttazzo, docente di ingegneria informatica dell'Istituto TeCIP (Tecnologie della Comunicazione, Informazione, Percezione) della Scuola Superiore Sant'Anna di Pisa. «Fra pochi decenni - aggiunge - l'intelligenza artificiale avrà potenzialità superiori a quella umana, dunque dovremmo fare attenzione a gestire correttamente questi enti autonomi intelligenti per non perderne il controllo».
I PERICOLI
Anche se i sistemi automatici non vengono pensati con l'esplicita finalità di operare delle discriminazioni, tale rischio sarebbe quindi implicito nella loro natura, essendo questi algoritmi pensati per replicare dei dati già esistenti, come le caratteristiche dei lavoratori assunti negli ultimi decenni. Se quindi in passato un'azienda ha privilegiato un certo tipo di forza lavoro, ad esempio maschi bianchi laureati presso università prestigiose, il sistema imparerà a replicare questo comportamento e a selezionare preferibilmente lavoratori con le stesse caratteristiche. Una situazione che potrebbe ripetersi anche in molti altri ambiti, dalla richiesta di un prestito ai processi di adozione, a causa del ricorso ai processi di automazione in sempre più aspetti della nostra vita.
© RIPRODUZIONE RISERVATA